歡迎來訪江蘇帕卓管路系統股份有限公司 官方網站!
歡迎來訪江蘇帕卓管路系統股份有限公司 官方網站!
剛剛過去的周末,光伏、儲能行業迎來重磅利好消息:摩根士丹利調高寧德時代目標價,在黃仁勛、奧特曼兩位大佬加持下“儲能與AI”的故事發酵。
圖片來源網絡
摩根士丹利調高寧德時代目標價
3月10日,摩根士丹利發布報告,將中國電池巨頭寧德時代(CATL)的評級上調至“超配”,并設定目標價為210元人民幣。在報告中,摩根士丹利分析師指出,寧德時代作為全球領先的電池制造商,受益于電動汽車市場的快速增長和電池需求的攀升。
摩根士丹利發布報告指出,隨著價格戰接近尾聲,寧德時代準備通過新一代大規模生產線提高成本效率,并擴大在凈資產收益率方面的優勢,看到寧德時代在基本面上的多個拐點,上調公司評級至超配,并選為行業首選。
另外,據央視網10日報道,寧德時代董事長曾毓群在采訪時談到了近期多家歐美車企削減或推遲電動化的話題,“歐美車企沒有回歸燃油車,也沒有停止(電動汽車),可能是因為不賺錢,所以往后延遲一陣?!?/p>
從儲能業務來看,寧德時代是當之無愧的王者。國海證券預計,該公司2023年動力和儲能電池的出貨量達380GWh以上,同比增長31%以上。單2023年四季度看,公司的出貨量達110GWh以上,同比增長14%以上,環比增長10%以上。按四季度中值計算,假設公司的電池業務利潤貢獻在90%,則測算公司單Wh盈利在1毛左右,與公司2023年前三季度的單位盈利基本保持相當。
黃仁勛、奧特曼:AI的盡頭是光伏和儲能
消息面上,在算力爆炒之后,“儲能+AI”的故事在剛剛過去的這個周末發酵了。據報道,英偉達CEO黃仁勛在一次公開演講中指出,AI未來發展與狀和儲能緊密相連。黃仁勛在演講中明確表示:“AI的盡頭是光伏和儲能!我們不能只想著算力,如果只考慮計算機,我們需要燒掉14個地球的能源?!?/p>
早在2月27日,就有人在社交視頻上講“儲能與AI”的故事,引用的也是所謂“黃仁勛的演講”。與此同時,OpenAI的創始人山姆·奧特曼也提出了類似的看法。奧特曼表示,“未來AI的技術取決于能源,我們需要更多的光伏和儲能?!?/p>
ChatGPT日耗電超50萬度
人工智能技術的快速發展,帶來了巨大的算力和能源消耗。據《紐約客》雜志報道,ChatGPT日耗電超50萬度,相當于1.7萬個美國家庭,以響應用戶的約2億個請求。
*近,在博世互聯2024大會上,馬斯克遠程連線接受了博世CEO和董事長的采訪。馬斯克提到人工智能的發展速度前所未見,似乎每過6個月的時間,算力就會增加10倍,遠遠超出了摩爾定律每18個月翻番的速度。他預計,兩年內年將由“缺硅”變為“缺電”,而這可能阻礙AI的發展。
“目前算力增長已經面臨瓶頸,很明顯,接下來變壓器會陷入短缺,緊接著就是電力,等到2025年,我們將沒有足夠的電力來運行所有的芯片?!瘪R斯克稱。
事實上,馬斯克對電力短缺的擔憂也不是一天兩天了,此前曾多次公開強調解決日益增長的電力需求的緊迫性。他認為,需要加快項目進度,以跟上不斷增長的電力需求。
我國臺灣地區4月電價調漲箭在弦上,“電價工作小組”3月12日起將連開4場討論會。其中民生用電擬分三級距調漲,*小漲幅700度(或500度)以下約漲5%,701~1000度約漲7%,1001度以上漲約10%;產業用電依產業別分三級距調漲,但連二年用電成長、用電50億度以上“超級大戶”以公司別來看,調幅*高上看近3成,臺積電首當其沖;但用電衰退面板、石化、鋼鐵,漲幅較小。4月電價方案平均漲幅在10~15%。
波士頓咨詢公司就曾分析稱,預計2030年左右,美國數據中心的電力消耗將較2022年增長三倍,相當于電力總需求的7.5%,會大幅提升社會用電量。
咨詢公司Grid Strategies也曾發布過一項研究,認為美國未來五年的年度電力需求增長大約在1.5%左右。而根據EIA的數據,美國發電量近15年來才增加了不到3%。過慣了供需相對穩定日子的美國供電體系,和面臨不少問題的電網,能否應對驟然增長的需求,尚有待觀察。
從儲能業務來看,寧德時代是當之無愧的王者。國海證券預計,該公司2023年動力和儲能電池的出貨量達380GWh以上,同比增長31%以上。單2023年四季度看,公司的出貨量達110GWh以上,同比增長14%以上,環比增長10%以上。按四季度中值計算,假設公司的電池業務利潤貢獻在90%,則測算公司單Wh盈利在1毛左右,與公司2023年前三季度的單位盈利基本保持相當。
AI大模型下的液冷發展趨勢
摘要
液冷是一種用液體來冷卻電子設備的散熱技術,能夠顯著提高數據中心散熱效率。液冷技術根據冷卻液與發熱器件的接觸方式不同,可以分為間接液冷和直接液冷,其中間接液冷主要包括冷板式液冷,直接液冷包括浸沒式液冷和噴淋式液冷。冷板式液冷和浸沒式液冷是目前主流的液冷形式,冷板式液冷應用*為廣泛,在改造成本、可維護性、兼容性方面具備優勢;浸沒式液冷冷卻效果*好,節能性上優勢明顯,但可維護性和兼容性一般,多用于高功率密度機柜。
控制當前數據中心溫控方式仍以風冷為主,液冷方案中冷板式技術更為普及。2022年數據中心液冷技術的滲透率大概在5%~8%左右,風冷仍然占據90%以上的市場份額。按照服務器出貨量口徑統計,2023H1我國冷板式液冷服務器比例為90%左右,浸沒式液冷滲透率為10%。
數據中心算力與能耗水漲船高,逐漸超出風冷散熱閾值,液冷散熱已是趨勢所向。Chatgpt為代表的生成式人工智能模型拉升算力需求,百億參數成為模型涌現門檻,算力成為大模型性能提升的關鍵。大模型帶來大算力,大算力帶來高功耗,Intel的多款CPU芯片的TDP已突破350W,NVIDIA 的H100系列GPU芯片TDP更是達到700W。這也導致單服務器和單機柜功率均顯著上升,已經逐漸超出風冷散熱的覆蓋范圍,液冷散熱已成為必然趨勢。
PUE限制是現階段液冷技術發展的核心驅動力。PUE代表數據中心能源使用效率,等于數據中心總耗電/IT設備耗電,比值越接近于1,說明能源越接近全部都用于IT設備負載上。我國數據中心平均PUE為1.49,仍有半數區域的數據中心PUE位于1.5以上。近幾年,國家與地方出臺了一系列針對新建與老舊數據中心PUE的管控計劃,明確要求東、西部樞紐節點數據中心PUE分別控制在1.25、1.2以下。而傳統風冷方案的數據中心PUE一般在1.5左右,高于政策要求的范圍;液冷方案能夠有效降低冷卻系統的能耗水平,從而將數據中心整體PUE降低到1.05-1.2左右,滿足相關的政策要求。
數據中心TCO是液冷技術規模應用的關鍵因素。數據中心總成本(TCO)包括建設成本(Capex)和運營成本(Opex)。根據奕信通科技在2022年數據中心標準峰會發布的報告進行測算,以華東地區數據中心建設情況為例,現階段冷板式液冷方案的TCO甚至Capex已經低于風冷,浸沒式液冷方案的TCO也將在運行五年左右之后出現低于風冷方案的拐點。但是該測算結果依賴于一定的前提條件:如機柜功率達到30KW、不計算服務器折舊和服務器運營支出、水電費與房租等運營成本按華東地區情況計價、采用集中式大型IDC機房且IT設備在12個月線性上架后實現80%負載率、外界氣溫對制冷系統的能耗需求較高等。因此在西北部地區、較小型數據中心等場景下液冷技術的經濟性尚沒有完全體現。但在數據中心發展的大型化、集約化的趨勢下,且液冷方案仍存在每年降本5-10%的空間,再考慮到液冷方案能夠有效延長服務器使用壽命,未來液冷數據中心TCO的優勢將更加明顯。
控制數據中心液冷未來市場規模估算:到2025年,中國數據中心液冷市場規模將達到359億元左右,CAGR達到72.4%;AI數據中心液冷市場規模將達到280億元左右,CAGR達到71.4%;通用數據中心液冷市場規模將達到79億元,CAGR達到76.2%。
1液冷技術詳解
液冷是一種用液體來冷卻電子設備的散熱技術。液冷的工作原理是以液體作為冷媒,利用液體的高熱容和高熱傳導性能,通過液體流動將IT設備的內部元器件產生的熱量傳遞到設備外,使IT設備的發熱器件得到冷卻,以保證IT設備在安全溫度范圍內運行(本文主要討論數據中心應用場景下的液冷技術)。根據冷卻液與發熱器件的接觸方式不同,可以分為間接液冷和直接液冷。間接液冷是指服務器熱源與冷卻液之間沒有直接接觸的換熱過程,以冷板式液冷技術為主。直接液冷是指將發熱部件與冷卻液直接接觸的冷卻方式,包括浸沒式和噴淋式液冷技術。其中又可以根據冷卻液是否會發生液態到氣態的轉變,將浸沒式液冷分為單相浸沒式液冷和雙相浸沒式液冷。當前,冷板式液冷和浸沒式液冷為液冷的主要形式。
液冷系統通用架構包括室外側和室內側兩部分:室外側包含冷卻塔、一次側管網、一次側冷卻液;室內側包含 CDU、液冷機柜、ICT 設備、二次側管網和二次側冷卻液。室外側為外部冷源,通常為室外的冷水機組、冷卻塔或干冷器,熱量轉移主要通過水溫的升降實現;室內側包括供液環路和服務器內部流道,主要通過冷卻液溫度的升降實現熱量轉移;兩個部分通過CDU中的板式換熱器發生間壁式換熱。
1.1 冷板式液冷
冷板式液冷屬于間接液冷,冷卻液不與服務器芯片直接接觸。冷板式液冷也被稱作芯片級液冷,技術原理是通過在服務器組件(如 CPU、GPU等高發熱部件)上安裝液冷板(通常為銅鋁等導熱金屬構成的封閉腔體),服務器組件通過導熱部件將熱量傳導到液冷板上,然后利用液冷板內部的液體循環將熱量傳遞到遠離服務器的散熱單元;同時一般會增設風冷單元為低發熱元件進行散熱。
冷板式液冷系統主要由冷卻塔、CDU、一次側 & 二次側液冷管路、冷卻介質、液冷機柜組成;其中液冷機柜內包含液冷板、設備內液冷管路、流體連接器、分液器等。
1.2 浸沒式液冷
浸沒式液冷屬于直接液冷,將發熱器件浸沒在冷卻液中進行熱交換,依靠冷卻液流動循環帶走熱量。
浸沒式液冷系統室外側包含冷卻塔、一次側管網、一次側冷卻液;室內側包含 CDU、浸沒腔體、IT 設備、二次側管網和二次側冷卻液。使用過程中 IT設備完全浸沒在二次側冷卻液中,因此二次側循環冷卻液需要采用不導電液體,如礦物油、硅油、氟化液等。
浸沒式液冷根據冷卻液換熱過程中是否發生相變,可以進一步分為單相浸沒式液冷和雙相浸沒式液冷技術。
1.2.1 單相浸沒式液冷
在單相浸沒式液冷中,冷卻液在熱量傳遞過程中僅發生溫度變化,而不存在相態轉變。單相浸沒式液冷的技術原理為:CDU循環泵驅動二次側低溫冷卻液由浸沒腔體底部進入,流經豎插在浸沒腔體中的IT設備時帶走發熱器件熱量;吸收熱量升溫后的二次側冷卻液由浸沒腔體頂部出口流回CDU;通過CDU內部的板式換熱器將吸收的熱量傳遞給一次側冷卻液;吸熱升溫后的一次側冷卻液通過外部冷卻裝置(如冷卻塔)將熱量排放到大氣環境中,完成整個冷卻過程。
1.2.2 雙相浸沒式液冷
雙相浸沒式液冷的不同之處在于冷卻液會發生相態轉變。雙相浸沒式液冷的傳熱路徑與單相浸沒液冷基本一致,主要差異在于二次側冷卻液僅在浸沒腔體內部循環區域,浸沒腔體內頂部為氣態區、底部為液態區;IT設備完全浸沒在低沸點的液態冷卻液中,液態冷卻液吸收設備熱量后發生沸騰,汽化產生的高溫氣態冷卻液因密度較小,會逐漸匯聚到浸沒腔體頂部,與安裝在頂部的冷凝器發生換熱后冷凝為低溫液態冷卻液,隨后在重力作用下回流至腔體底部,實現對IT設備的散熱。
1.3 淋式液冷
噴淋式液冷屬于直接液冷,將冷卻液精準噴灑于電子設備器件進行散熱。冷卻液借助特制的噴淋板精準噴灑至發熱器件或與之相連接的固體導熱材料上,并與之進行熱交換,吸熱后的冷卻液換熱后將通過回液管、回液箱等集液裝置進行收集并通過循環泵輸送至CDU進行下一次制冷循環。
噴淋式液冷系統主要由冷卻塔、CDU、一次側 & 二次側液冷管路、冷卻介質和噴淋式液冷機柜組成;其中噴淋式液冷機柜通常包含管路系統、布液系統、噴淋模塊、回液系統等。
1.4 不同液冷方案的比較
1.4.1 冷板式液冷目前應用*為廣泛,在改造成本、可維護性、兼容性方面具備優勢
冷板式液冷的優勢主要在于:
1)兼容性:冷板式液冷的改造成本相對較低,不需要對數據中心現有的機房及機柜進行大規模改造,其適用的硬盤、光模塊等服務器部件與風冷方案一致,運維模式、機房承重與風冷場景也基本一致;
2)散熱效果與節能性:冷卻效果和節能性要遠好于風冷,PUE可以達到1.2左右;(據《綠色高能效數據中心散熱冷卻技術研究現狀及發展趨勢》數據顯示,風冷散熱下數據中心的 PUE 值通常在1.5左右)
3)可靠性:液體與設備不直接接觸,可靠性更高;
4)維護性:易開展維護性設計,可實現在線維護方案;
5)噪聲:風機轉速大幅降低,噪聲值可至 70dB 左右。
冷板式液冷的局限性主要在于:
1)液體沒有與電子器件直接接觸,而是通過金屬管壁進行熱交換,與直接接觸的浸沒式液冷相比冷卻與節能效果欠佳;
2)IT設備、冷卻液、管路、供配電等不統一,服務器多與機柜深耦合;
3)管路接頭、密封件較多,漏液維護復雜。
1.4.2 浸沒式液冷的散熱效果和節能性優勢明顯,但兼容性和維護性一般,多用于高功率密度機柜
浸沒式液冷的優勢主要在于:
1)散熱效果與節能性:與冷板式液冷相比,浸沒式液冷中采用了直接接觸式的熱交換,傳熱系數高,冷卻效果更好,節能性更強(雙相浸沒式液冷方案的PUE在1.04-1.07左右,單相浸沒式為1.09左右)
2)緊湊:支持高密機柜,單柜散熱量高達160kW;同時,機柜間無需隔開距離,機房不需要空調和冷凍機組、無需架空地板、無需安裝冷熱通道封閉設施;
3)可靠性:設備完全浸沒在液體中,排除了溫度、風機振動、灰塵等帶來的可靠性問題;
4)噪聲:100%液體冷卻,無需配置風扇,實現**“靜音”機房。
浸沒式液冷的局限性主要在于:
1)兼容性較差:IT設備需要定制,光模塊、硬盤等部件兼容性仍待驗證;此外,雙相浸沒式液冷方案適配的服務器需改為刀片式,其專用機柜對于管路要求高,控制復雜;
2)維護復雜:浸沒式液冷設備維護時需要打開Tank上蓋,并配備可移動機械吊臂或專業維護車實現設備的豎直插拔,維護復雜度高,耗時長;且開蓋維護過程有一定的冷卻液揮發問題,增加運行成本;
3)承重要求高:因浸沒式液冷系統Tank內充滿冷卻液,整柜重量大幅增加,對機房有特殊承重要求,普遍要求浸沒式液冷機房地板承重應大于1500kg/m2;
4)國產冷媒待驗證:單相浸沒式液冷方案所使用的國產冷媒仍待驗證。
浸沒式液冷比較適用于對功率密度、節能性要求較高的大型數據中心,特別是地理位置較為特殊、空間有限的數據中心。
1.4.3 噴淋式液冷在安裝便利性、空間利用等方面有優勢,但是現階段落地應用相對較少
噴淋式液冷不需要對數據中心基礎設施進行大幅改動,安裝便捷,空間利用率高,且噴淋方式能夠節省冷卻液,其不足在于服務器整體密封于氣相柜中,排液、補液,維護時會破壞服務器原有密封結構。目前噴淋式液冷技術的應用場景有限,只有少量數據中心采用了噴淋式液冷技術。
2 數據中心液冷行業基本情況與競爭格局
2.1 基本情況:數據中心液冷行業如日方升,液冷技術有望加速導入
數據中心溫控方式仍以風冷為主,液冷技術有望加速導入。目前數據中心的散熱方式仍然以風冷為主,在算力設備以及數據中心機房的高熱密度趨勢和高能效散熱要求的雙重推動下,預計未來液冷將成為主流的數據中心溫控方式。根據產業調研與曙光數創的信息,2022年數據中心液冷技術的滲透率大概在5%~8%左右,風冷仍然占據90%以上的市場份額;預計2025-2028年時液冷技術的滲透率有望達到30%。
液冷方式以冷板式為主,浸沒式技術有望加速推廣。當前主流的液冷技術包括冷板式液冷和浸沒式液冷,由于冷板式液冷對于數據中心的改造難度較低,改造所需成本也較為可控,所以目前冷板式液冷的市場應用相對更加普及。根據IDC《中國半年度液冷服務器市場(2023上半年)跟蹤》報告,按照服務器出貨量口徑統計,2023H1我國冷板式液冷服務器比例達到90%左右,浸沒式液冷滲透率僅為10%。但隨著國家對于數據中心PUE的政策要求的愈發嚴格,機柜功率密度的持續抬升以及浸沒式液冷技術的逐漸成熟,浸沒式液冷方案有望進入加速推廣期。
2.2 產業鏈:涉及環節眾多,存在較高進入壁壘
液冷產業鏈涉及環節眾多,包括上游的液冷設備及產品零部件提供商、中游的液冷服務器及液冷基礎設施提供商與下游的數據中心使用者。上游主要為產品零部件及液冷設備,包括快速接頭、CDU、電磁閥、浸沒液冷TANK、manifold、冷卻液等產品,代表性廠商有英維克、3M、高瀾股份、云酷、奕信通、廣東合一、綠色云圖、巨化股份等。中游主要為液冷服務器、芯片廠商以及液冷集成設施、模塊與機柜等,代表性廠商有華為、中興、浪潮、曙光、新華三、聯想、超聚變、英特爾等。下游主要為數據中心的使用者,包括三家電信運營商,百度、阿里巴巴、騰訊、京東等互聯網企業,數據港、光環新網等第三方IDC服務商以及政府、科研機構、金融、能源、交通等其他信息化需求客戶。
產業鏈存在較高的技術、人才、客戶認證壁壘。
1)技術壁壘:液冷數據中心基礎設施產品的研發和制造涉及冷卻技術、制冷系統設計及仿真技術、溫濕度解耦控制算法等多項技術領域,要求企業在液冷核心技術進行多年研究積累,深入掌握液冷技術的相關原理和應用。此外,液冷數據中心基礎設施產品工藝流程復雜,需要掌握生產制造流程中的核心工藝,同時需具備成熟的控制體系,對產品質量進行把控,保證產品的合格率,因此數據中心液冷行業具有較高的技術壁壘。
2)人才壁壘:液冷數據中心基礎設施領域屬于新興技術密集型產業,產品性能涉及材料化學、熱力學、電子學、計算機科學等多學科,并且數據中心的制冷系統存在定制化特征,因此對研發技術人員的技術研發能力和行業經驗要求較高。目前行業發展歷程較短,技術與產品仍處于驗證階段,高端技術人才相對稀缺,且高端人才主要集中規模較大的企業以及***研究機構中,因此新進企業難以在短期內培養出一批具備技術開發實力并擁有豐富實踐項目經驗的專業技術隊伍,由此數據中心液冷行業存在較高的專業人才壁壘。
3)客戶認證壁壘:出于安全性、穩定性等考慮,企業客戶在選擇液冷數據中心基礎設施供應商時通常需要進行嚴格的資質驗證。尤其是金融、醫藥等機構出于數據安全、保密等要求,對液冷數據中心基礎設施解決方案供應商挑選非常嚴格,需要對企業產品質量水平、項目經驗、技術研發能力進行綜合考察,因此認證過程復雜且耗時較長。液冷數據中心基礎設施廠商應具備較強的產品研發能力、穩定的產品供應以及售后服務經驗,同時具備豐富的技術儲備,才能滿足不同客戶的需求。另一方面,由于更換液冷數據中心基礎設施供應商會對產品的穩定性形成風險,客戶在與液冷數據中心基礎設施供應商建立生產配套關系后,傾向于維持與現有技術供應商的合作,不會輕易更換主要供應商,因此先進入者一旦建立起自身客戶資源、形成先發優勢,新進入企業將很難在短期內爭奪市場份額、改變行業現有格局,因此數據中心液冷行業具有較高的客戶認證門檻。
2.3 競爭格局:行業仍處于技術驗證階段,市場格局尚不明確
目前液冷行業仍處于技術驗證階段,技術路線、產品結構、行業標準等還無定數,國外廠商難以進入中國市場,市場競爭格局尚不明確。目前市場中主要廠商在液冷技術和產品方面還處于實驗研究或初步應用階段,產品結構與行業標準尚在演進,市場內還未形成具備較強核心競爭力的龍頭廠商,市場競爭格局尚未穩定。此外,由于中國對數據安全的保護,在數據中心基礎設施的供應方面存在一定的地域壁壘,因此,目前國外廠商的產品的應用主要以其本國市場為主,進入中國市場較為困難。
3 數據中心液冷行業未來看點
3.1 推理/訓練服務器功耗有望達到10/2kW,液冷方案成為首選
生成式人工智能橫空出世,助推AI算力景氣度。受ChatGPT為代表的生成式人工智能大模型等新業態帶動,全新的AI應用場景有望在未來3-5年爆發,百億參數是大模型具備涌現能力的門檻,千億參數的大模型將具備較好的涌現能力,AI算力成為大模型能力提升的核心驅動力?,F階段ChatGPT的總算力消耗達到了3640PF-day(每秒計算一千萬億次,需要計算3640天),需要7-8個投資規模30億元,算力500P的超大數據中心才能支撐其訓練過程,AI算力的重要性不言而喻。據IDC預測,全球AI算力市場規模將從2022年的195.0億美元增長到2026年的346.6億美元,其中生成式AI算力市場規模將從2022年的8.2億美元增長到2026年的109.9億美元,生成式AI算力占整體AI算力市場規模的比例將從4.2%增長到31.7%。
大模型帶來高算力,高算力帶來高功耗。隨著AI計算、HPC計算等高性能計算需求不斷提升,CPU、GPU等計算芯片朝高算力、高集成方向演進,同時也導致單顆計算芯片功耗的大幅提升。對于CPU、GPU、ASIC等計算芯片而言,一方面可以通過增加計算核心數或提高單核心的主頻等方式來提高算力,此舉會顯著增加芯片的TDP(熱設計功耗);另一方面可以依靠先進制程技術來縮減單位算力對應的TDP(TDP/算力)。但是由于先進制程技術推進較慢等因素,單位算力對應TDP的下降幅度逐年減少,且遠不及算力的增長速度,這也導致了AI芯片功耗的大幅攀升。當前,Intel的多款CPU芯片的TDP已突破350W,NVIDIA 的H100系列GPU芯片的TDP更高達700W。
計算芯片高功耗造成單服務器功耗顯著提高。單服務器功耗大部分源于計算芯片,服務器的核心組件包括CPU(中央處理器)、GPU(圖形處理器)、內存芯片、SSD(固態硬盤)、網卡、PCB主板、RAID卡、HBA卡和電源等。CPU/GPU等計算芯片在通用服務器功耗中占比約為50%左右,而在AI服務器中,計算芯片的功耗占比高達80%以上。我們參考2022-2023年中國電信集采AI服務器配置與阿里云通用服務器配置進行功耗計算,服務器的功耗可以粗略估計為所有組件的功耗總和;選取超聚變FusionServer 2288 V7作為通用服務器的代表型號,超聚變FusionServer G5500 V6作為AI訓練服務器的代表型號,超聚變FusionServer G8600 V7作為AI推理服務器的代表型號。
通過我們的測算,通用服務器的總功耗為595W,AI訓練服務器的總功耗為7015W,AI推理服務器的總功耗為1615W。但是由于芯片超頻,額外的NVLINK模組等因素的存在,計算芯片的實際滿載功耗往往會高于官方標定的功耗。以上因素導致服務器的實際功耗可能會高于各組件的總功耗,具體的功耗還要以實際測試為準。根據超聚變服務器功耗計算器的測算,當前配置下的通用服務器的實際滿載功耗為700W左右,AI訓練服務器的實際滿載功耗為9800W左右,AI推理服務器的實際滿載功耗為2000W左右。(該過程僅為根據公開資料的估算,請以實際環境和負載下的測算為準)
隨著服務器功耗提高,單機柜功率上升趨勢明顯。根據Uptime Institute相關報告數據顯示,2020年全球數據中心單機柜功率密度達到8.4kW/機柜,相比于2017年的5.6 kW/機柜有明顯提升;其中71%的數據中心平均功率密度低于10 kW/機柜,17%的數據中心平均功率密度高于20kW/機柜,預計未來數據中心功率密度將繼續上升,高密度數據中心占比將持續提高。
單機柜功率逐漸超出風冷散熱閾值,液冷散熱已是趨勢所向。風冷散熱一般適用于20Kw/機柜左右的功率密度以下,20Kw/機柜以上時液冷散熱優勢明顯。通用服務器通常為2U,AI訓練服務器通常為6U,AI推理服務器通常為4U,標準機柜為42U;考慮到電源模塊、網絡模塊等因素,假設單機柜內可以放置18個通用服務器或6個AI訓練服務器或9個AI推理服務器,根據之前對于服務器功耗的測算,則單機柜功率可以分別達到12.6kW(通用),58.8kW(AI訓練)和18kW(AI推理);考慮到機柜中其他模塊的散熱情況,實際單機柜功率會更高。對于通用服務器機柜,其單機柜功率已經開始逐步靠近風冷散熱閾值,隨著通用服務器功耗的持續上升,液冷散熱的優勢有望逐步顯現;對于AI訓練與推理服務器機柜,其單機柜功率已經逼近或者超出了風冷散熱所能覆蓋的功率密度范圍,液冷散熱已成大勢所趨。
3.2 PUE限制是現階段液冷技術發展的核心驅動力
數據中心耗電量不斷提升,綠色低碳成為必然趨勢。數據中心是能耗大戶,其包含大量的 IT 設備、供電與制冷設備。隨著數據中心算力與功耗的不斷增長,數據中心耗電量必將呈快速增長趨勢,綠色低碳必將并且已經成為新型數據中心發展的重要基本原則之一。
我國數據中心平均PUE為1.49,仍有半數區域的數據中心PUE位于1.5以上。PUE 全稱 “Power Usage Effectiveness(能源使用效率)”,是數據中心消耗的一切能源與 IT 負載運用的能源之比,比值越接近于1,說明能源越接近全部都用于 IT 負載上。目前我國一半以上區域的數據中心 PUE 值都在 1.5 以上,即消耗在冷卻等非 IT 負載上的能源,占到了 IT 負載的一半以上。截至2021年全國數據中心平均PUE為1.49,還有華南、華東、西北和西南區域的數據中心PUE超過1.50,僅有東北、華北和華東區域的數據中心PUE在1.50以下。
數據中心PUE管控日趨嚴格,針對老舊與新建數據中心均出臺強力約束措施。國家與地方出臺了一系列政策對數據中心能耗管理進行規范,不斷強調數據中心綠色高質量發展的重要性。2021年7月,工信部印發《新型數據中心發展三年行動計劃(2021-2023年)》,要求到2021年底,新建大型及以上數據中心PUE降低到1.35以下;到2023年底,新建大型及以上數據中心PUE降低到1.3以下,嚴寒和寒冷地區降低到1.25以下。2022年8月,工信部等七部門印發《信息通信行業綠色低碳發展行動計劃(2022-2025年)》,要求到2025年,全國新建大型、超大型數據中心電能利用效率(PUE)降到1.3以下,改建核心機房PUE降到1.5以下。除此之外,地方也出臺了一系列數據中心PUE要求相關的政策文件,其中北京針對數據中心的年能源消耗量設立了多層次PUE要求,年能源消耗量越高的數據中心PUE要求越高,此外還針對PUE超過1.4的數據中心實行電價加價措施。
冷卻系統占據數據中心除IT設備負載外的能耗中的絕大部分,液冷技術能夠有效降低冷卻系統能耗,進而降低數據中心PUE,滿足監管政策要求。PUE為1.92的數據中心下冷卻系統能耗占總能耗的比例為38%左右,而PUE為1.3的數據中心下冷卻系統能耗占比下降至18%,這意味著降低數據中心PUE的關鍵就在于降低冷卻系統的能耗表現。在同等的散熱水平下,傳統風冷方案的數據中心PUE一般為1.5左右,液冷方案的PUE值可降至1.05-1.2左右,能夠滿足當前政策對于數據中心PUE的要求。
3.3 數據中心TCO是液冷技術規模應用的關鍵因素
數據中心總成本(TCO)包括建設成本(Capex)和運營成本(Opex)。Capex一般指建設成本,包括土地獲取、勘察、規劃設計、設備購置、建設、安裝以及系統調測等費用;Opex一般指運營成本,主要包含電力、冷卻散熱等基礎設施成本、維護成本及管理成本。低成本是數據中心建立競爭優勢的關鍵,也是降低投資回收期和持續發展的關鍵。
我們基于華東地區、2N UPS、30kW每機柜等常見數據中心配置進行風冷、冷板式液冷和浸沒式液冷等不同冷卻方式下的TCO測算(本文關于TCO的討論均不考慮服務器等IT設備成本)。市場普遍認為,風冷方案在Capex上更具經濟性,液冷方案只在后續的Opex中有一定的優勢。但是根據奕信通科技在2022年數據中心標準峰會(CDCC)發布的報告進行測算,現階段選擇冷板式液冷方案的Capex已經低于風冷方案,即便是浸沒式液冷方案,也將在運行5年左右之后出現TCO低于風冷方案的拐點。(該過程僅為根據公開資料的估算,請以實際環境和負載下的測算為準)
但是該測算結果依賴于一定的前提條件:如機柜功率達到30KW、不計算服務器折舊和服務器運營支出、水電費與房租等運營成本按華東地區情況計價、采用集中式大型IDC機房且IT設備在12個月線性上架后實現80%負載率、外界氣溫對制冷系統的能耗需求較高等。因此在西北部地區、較小型數據中心等場景下液冷技術的經濟性尚沒有完全體現。但在數據中心發展的大型化、集約化的趨勢下,且液冷方案仍存在每年降本5-10%的空間,再考慮到液冷方案能夠有效延長服務器使用壽命,未來液冷數據中心TCO的優勢將更加明顯。
機電部分包括制冷系統、配電系統、機柜系統、布線系統和監控管理系統的購置和安裝成本,不考慮IT設備成本。
液冷方案與風冷方案相比:1)其機電部分的Capex可以節省掉冷凍水機組/冷凍水精密空調,減少UPS和開關設備的容量等;2)需要增加密封機箱、冷卻液、冷板、熱交換器、防滴漏連接器和機架式分液器等液冷設備方面的成本;3)液冷方案下同樣外電體量的數據中心內空間利用率更高,能承載更多IT設備,每ITkW(IT設備功率)下的分攤成本更低。根據假設條件測算,風冷、冷板式液冷、浸沒式液冷方案的機電部分Capex分別為16000-18000元/ITkW、15000-17000元/ITkW和23000-28000元/ITkW左右。冷板式液冷方案下分攤到每ITkW下的機電部分Capex與風冷方案基本持平甚至更低;浸沒式液冷方案所需增加的機電設備較多,分攤下來每ITkW的Capex相比于風冷仍有7000-10000元/ITkW左右的上升。
土建部分主要包括建筑物成本。風冷和液冷方案的土建成本差異主要在于同樣體量的數據中心內,液冷方案下建筑所需的建筑面積更小。根據奕信通科技測算,風冷、冷板式液冷、浸沒式液冷的土建部分Capex分別為5000元/ITkW,3000元/ITkW和3500元/ITkW左右。
外電和能評部分主要包括獲取外電資源,通過能評驗收所需付出的成本。與風冷相比,液冷方案的PUE更低更節能,獲取外電資源,通過能評驗收的難度相對會小很多。根據奕信通科技測算,風冷、冷板式液冷、浸沒式液冷的外電和能評部分Capex分別為4000元/ITkW,2000元/ITkW和2000元/ITkW左右。
Opex中占比*高的是電力成本,液冷技術可以有效降低電力成本。數據中心的Opex主要包括電力成本、固定資產折舊、房租、人工費等等,其中電力成本占比*高,達到56.7%(風冷情況下)。
浸沒式液冷方案的Opex*具優勢。根據奕信通科技測算,風冷方案的Opex為9360-9720元/ITkw/年左右,冷板式液冷方案的Opex為8040-8400元/ITkw/年左右,浸沒式液冷方案的Opex是7800-8160元/ITkw/年左右。
現階段選擇冷板式液冷的初始TCO已經低于風冷,浸沒式液冷的TCO將在5-6年之后低于風冷。我們根據以上測算結果進行10年期的TCO測算,那么風冷的Capex和Opex分別為26000元/ITkW和9540元/ITkW/年,冷板式液冷的Capex和Opex分別為21000元/ITkW和8220元/ITkW/年,浸沒式液冷的Capex和Opex分別為31000元/ITkW和7980元/ITkW/年。根據TCO測算,現階段冷板式液冷方案的TCO從開始就已經低于風冷方案,浸沒式液冷方案也將在5年左右之后出現TCO低于風冷方案的拐點。
3.4 液冷技術能夠有效延長服務器使用壽命,實現降本增效
傳統電子設備普遍采用空氣冷卻方式,溫度是電子設備產生故障的主要原因之一。環境的多樣性包括溫度、濕度、振動、灰塵等多個方面,在導致電子設備失效的因素中溫度占了55%,過熱是電子設備產生故障的主要誘因。隨著溫度的增加,電子、原子、分子的運動速度加快,使得電子設備的性能發生變化,當達到一定階段時,就會引起嚴重的故障。在高于一般室內環境溫度(約20°C~25°C)范圍內條件下,故障率大致按指數規律隨溫度的升高而增加。同時,濕度、振動、灰塵等因素同樣會對電子設備的工作性能和使用壽命產生負面影響。
液冷能夠有效降低服務器部件故障率,延長使用壽命。液體具有比空氣更大的比熱容,散熱能力更強,使得服務器溫度更加穩定,CPU和GPU計算部件可以長時間穩定工作在高性能頻率狀態。此外,浸沒式液冷將IT設備浸入封閉的液體環境中,與空氣完全隔離,并且不再需要高速風扇進行散熱,消除了空氣濕度、風扇振動以及灰塵帶來的可靠性影響,從而優化了服務器的運行環境,延長了設備的使用壽命。根據阿里云的實驗數據,與風冷服務器相比,液冷服務器整體部件故障率下降約53%,其中電源、網卡、風扇、網線等部件的故障率下降超過80%。隨著單服務器價值量以及數據中心運營成本的與日俱增,服務器的可靠性與使用壽命顯得尤為重要,液冷帶來的附加經濟價值有望逐步顯現。
3.5 解耦交付模式成為未來發展趨勢,助力液冷產業規范化發展
目前冷板式液冷方案的交付模式可以分為兩類,包括一體化交付與解耦交付兩種。一體化交付是指液冷機柜的所有部分,包括機柜和服務器等,都按照廠商自行設定的標準進行集成設計開發,然后再作為一個整體進行交付。而解耦交付則要求液冷機柜與液冷服務器之間遵循用戶預先制定的通用接口設計規范,機柜與服務器可以分別由不同廠商負責生產和交付。
解耦交付模式為大勢所趨,助推冷板式液冷產業規范化發展。服務器與機柜解耦更有利于形成統一的技術標準及規范,能夠促進行業競爭與技術推廣,讓更多廠商能夠參與液冷行業,實現多廠家適配,也便于后續靈活部署,使得客戶可以根據實際需求選擇不同的服務器和機柜組合,不會受限于某一個供應商。目前華為、超聚變等液冷廠商已經實現了盲插快接,中國移動也已經著手研發新型機柜,并計劃在完成測試后開源,推動更多的服務器和機柜廠商參與到盲插解耦液冷技術的研發與驗證中,推動技術成熟與規范化。
4 數據中心液冷未來市場規模估算
根據估算,到2025年,中國數據中心液冷市場規模將達到359億元左右,CAGR達到72.4%;AI數據中心液冷市場規模將達到280億元左右,CAGR達到71.4%;通用數據中心液冷市場規模將達到79億元,CAGR達到76.2%。核心假設如下:
1)假設通用服務器的平均功率為0.7kW。以超聚變FusionServer 2288 V7(2U)作為通用服務器的代表型號,在超聚變服務器功耗計算器中測算得出其滿載功率約為0.7kW。
2)假設AI服務器的平均功率為3.8kW,其中AI訓練服務器平均功率為8kW,AI推理服務器為2kW。根據產業調研數據,假設AI服務器中訓練與推理的數量關系約為3:7,訓練服務器中H系列和A系列所占比例約為4:6,推理服務器均為T4系列。以超聚變FusionServer G5500 V6作為AI訓練服務器的代表型號,超聚變FusionServer G8600 V7作為AI推理服務器的代表型號,根據超聚變服務器功耗計算器,H系列訓練服務器滿載功率約為10kW,A系列訓練服務器滿載功率約為6.8kW,T4系列推理服務器的功率約為2KW。結合以上數量比例關系,可以估算出AI服務器平均功率約為3.8kW。
3)假設通用服務器平均功率每年提升10%,AI訓練與推理服務器平均功率未來三年提升30%/20%/15%。根據近幾年CPU/GPU TDP的變化趨勢,CPU TDP每年提升10%左右,GPU TDP每年提升20%左右,我們假設通用服務器平均功率未來三年保持10%左右的增速,AI訓練與推理服務器平均功率未來三年的增速為30%/20%/15%。
4)至2025年,假設通用服務器液冷滲透率由5%提升到20%,AI訓練服務器液冷滲透率由70%提升到100%,AI推理服務器液冷滲透率由40%提升至70%。根據產業調研與曙光數創的信息,2022年我國液冷滲透率為5%-8%左右,預計2025-2028年時液冷滲透率能達到30%左右。我們假設通用服務器2022年液冷滲透率為5%,至2025年液冷滲透率上升至20%;AI訓練服務器2022年液冷滲透率為70%,至2025年液冷滲透率上升至100%;AI推理服務器2022年液冷滲透率為40%,至2025年液冷滲透率上升至70%;整體液冷滲透率由2022年的8%上升至2025年的25.7%。
5)至2025年,假設浸沒式液冷滲透率由10%提升至30%,冷板式液冷滲透率由90%降低至70%。根據IDC《中國半年度液冷服務器市場(2023上半年)跟蹤》報告,按照服務器出貨量口徑統計,2023H1我國冷板式液冷服務器比例為90%左右,浸沒式液冷滲透率僅為10%。隨著未來浸沒式液冷技術逐漸成熟進入加速推廣期,我們預計浸沒式液冷的滲透率由2022年的10%上升至2025年的30%,冷板式液冷的滲透率由2022年的90%下降至70%。
6)考慮到大部分數據中心液冷廠商的產品只覆蓋數據中心液冷基礎設施中的制冷系統、機柜系統等核心部分,故估算數據中心液冷市場規模時只考慮數據中心液冷基礎設施中制冷系統、機柜系統等核心部分的市場規模,不考慮布線系統、土建、外電、能評等其他配套部分。結合產業調研數據,假設冷板式液冷基礎設施的價值量約為10000元/ITkW,浸沒式液冷基礎設施的價值量約為15000元/ITkW。
7)考慮到未來數據中心液冷市場競爭逐步加劇以及技術逐漸成熟,液冷方案價格將呈逐年下降的趨勢;冷板式液冷技術目前更為成熟,未來價格的下降空間相對較小。我們假設冷板式液冷價值量逐年下降5%,浸沒式液冷價值量逐年下降10%。
[聲明]文章系本網編輯轉載,轉載目的在于傳遞更多行業新聞信息,文章僅作交流學習使用,也并不代表本網贊同其觀點和對其真實性負責。如涉及作品內容、版權和其它問題,請在30日內與本網聯系,我們將在**時間刪除內容!
本站文章版權歸原作者所有 內容為作者個人觀點 本站只提供參考并不構成任何投資及應用建議。本站擁有對此聲明的*終解釋權。